به گزارش مشرق، یکی از مواردی که امسال در اجلاس بزرگ مجمع جهانی اقتصاد در «داووس» سوییس به شکل جدی محل بحث و تبادل نظر قرار گرفت، موضوع اسلحههای کاملا خودکار یا «رباتهای قاتل» بود. این موضوع از اهمیت به سزایی برخودار است زیرا برای اولین بار است که در اجلاسی نظیر این، موضوع هوش مصنوعی و ربات های آینده مطرح میشود.
اما در حالی که تمرکز زیادی بر مزایا و فواید این هوش مصنوعی و این رباتها برای زیست اجتماعی بشر و جوامع بشری معطوف بود، یک پنل تخصصی یک ساعته معطوف به جنبههای تاریک این موضوع شد.
ایده لشگری از رباتهای سرکش که در پی ویرانی و غارت نسل بشر و دستاوردهای آن هستند، البته که ایده جدیدی نیست و این سناریوی آخرالزمانی بارها در فیلم های علمی-تخیلی تصویر شده است. اما دانشمندان، متخصصان و بسیاری از نهادهای مختلف طی سالهای اخیر سعی کرده اند از جنبه ای جدیتر به این موضوع نگاه کنند.
از همین روی است که «مری وارهم» - Mary Wareham – دبیر هماهنگ کننده کمپین «توقف رباتهای قاتل» در این باره به شکلی جدی سخن میگوید: این کمپین معطوف به تخریب و از بین بردن این صنعت، یا این حوزه به شکل کلی نیست. این کمپین در رابطه با محاصره و از بین بردن خطر یک تکنولوژی بالقوه خطرناک است.
در واقع این کمپین متشکل از نهادهای غیر دولتی است که در سال 2013 با هدف توقف و ممنوعیت پیشدستانه سلاحهای کاملا خودکار به وجود آمد.
آنها سلاح های کاملا خودکار را اینگونه تعریف میکنند: سییستم های تسلیحاتی که بدون هیچ گونه دخالت انسانی، هدف را انتخاب کرده و از توان خود برای نابودی آن استفاده میکند.
در همین رابطه شاید استیون هاوکینگ را بتوان به عنوان یکی از صدها چهره سرشناس نام برد که در سال 2015 نامهای سرگشاده را به امضا رساندند که میگفت: شروع مسابقه تسلیحاتی بر سر سلاحهای مجهز به هوش مصنوعی یک ایده مضر است و باید توسط ممنوعیت استفاده سلاح های خودکار خارج از کنترل انسانی، متوقف شود.
اما این ایده طرفداران خاص خود را نیز دارد. از جمله «رونالد آرکین» - Ronald Arkin – رئیس موسسه تکنولوژی جورجیا در آتلانتا که در این باره معتقد است: این تکنولوژیها میتواند منجر به کاهش تلفات غیر نظامی در جنگها شود. البته وی نیز پایانی برای این سلاحها در نظر دارد و برای این پایان معیاری متناسب با اخلاقیات انسانی مطرح میکند.
اما نشست امسال داووس پیرامون این موضوع شامل حضور مسئول سابق نهاد خلع سلاح سازمان ملل متحد «آنگلا کین» و «راجر کار» رئیس موسسه BAE Systems به همراه یک متخصص هوش مصنوعی و یک متخصص اخلاق رباتیک بود.
رئیس موسسه BAE که شرکتی فعال در حوزه پدافند جهانی، هوا فضا و امنیت است، در این اجلاس چندی پیرامون سرمایه گذاری 40 میلیارد دلاری این صنعت بر روی تسلیحات خودکار در 40 کشور، توضیح داد. وی تشریح کرد که این تسلیحات خواستار گونهای فارغ از هرگونه مسئولیت و عاری از هرگونه احساس و عاطفه هستند.
وی هشدار داد: اگر، چه در زمان صلح و چه در زمان جنگ، اخلاق، وجدان و قوه قضاوت را از نهاد انسانی بگیرید، بشریت را به سطحی میبرید که ورای ادراک ما است.
اما این همه هشدار و انتقاد این سوال را در ذهن بر میانگیزد که ما چه قدر به ساخت یک چنین تسلیحاتی نزدیک هستیم و این موضوع چرا آنقدر جدی شده است که در یکی از مهمترین اجلاس های سالیانه جهانی پیرامون آن به شکلی جدی بحث و تبادل نظر در میگیرد؟
در سال 2012 بسیاری بر این نظر بودند که تا چند دهه دیگر این رباتهای قاتل از جهان تخیل پا به جهان واقعیت میگذارند. اما طی سالهای اخیر این زمان مورد بازنگری قرار گرفته و پیش بینی ها زمانی بسیار نزدیکتر را برای واقعی شدن این گونه از تسلیحات پیشنهاد کردهاند. تا جایی که نامه سرگشاده سال قبل میگفت:
تکنولوژی هوش مصنوعی به جایی رسیده است که تولید و کاربرد یک چنین سیستمهایی را – تقریبا و نه قانونا – طی چند سال آینده – و نه چند دهه – ممکن میسازد. تسلیحات خودکار بعد از باروت و سلاح هستهای به عنوان سومین انقلاب در حوزه تسلیحات به شمار میرود.
اما در حالی که تمرکز زیادی بر مزایا و فواید این هوش مصنوعی و این رباتها برای زیست اجتماعی بشر و جوامع بشری معطوف بود، یک پنل تخصصی یک ساعته معطوف به جنبههای تاریک این موضوع شد.
ایده لشگری از رباتهای سرکش که در پی ویرانی و غارت نسل بشر و دستاوردهای آن هستند، البته که ایده جدیدی نیست و این سناریوی آخرالزمانی بارها در فیلم های علمی-تخیلی تصویر شده است. اما دانشمندان، متخصصان و بسیاری از نهادهای مختلف طی سالهای اخیر سعی کرده اند از جنبه ای جدیتر به این موضوع نگاه کنند.
از همین روی است که «مری وارهم» - Mary Wareham – دبیر هماهنگ کننده کمپین «توقف رباتهای قاتل» در این باره به شکلی جدی سخن میگوید: این کمپین معطوف به تخریب و از بین بردن این صنعت، یا این حوزه به شکل کلی نیست. این کمپین در رابطه با محاصره و از بین بردن خطر یک تکنولوژی بالقوه خطرناک است.
در واقع این کمپین متشکل از نهادهای غیر دولتی است که در سال 2013 با هدف توقف و ممنوعیت پیشدستانه سلاحهای کاملا خودکار به وجود آمد.
آنها سلاح های کاملا خودکار را اینگونه تعریف میکنند: سییستم های تسلیحاتی که بدون هیچ گونه دخالت انسانی، هدف را انتخاب کرده و از توان خود برای نابودی آن استفاده میکند.
در همین رابطه شاید استیون هاوکینگ را بتوان به عنوان یکی از صدها چهره سرشناس نام برد که در سال 2015 نامهای سرگشاده را به امضا رساندند که میگفت: شروع مسابقه تسلیحاتی بر سر سلاحهای مجهز به هوش مصنوعی یک ایده مضر است و باید توسط ممنوعیت استفاده سلاح های خودکار خارج از کنترل انسانی، متوقف شود.
اما این ایده طرفداران خاص خود را نیز دارد. از جمله «رونالد آرکین» - Ronald Arkin – رئیس موسسه تکنولوژی جورجیا در آتلانتا که در این باره معتقد است: این تکنولوژیها میتواند منجر به کاهش تلفات غیر نظامی در جنگها شود. البته وی نیز پایانی برای این سلاحها در نظر دارد و برای این پایان معیاری متناسب با اخلاقیات انسانی مطرح میکند.
اما نشست امسال داووس پیرامون این موضوع شامل حضور مسئول سابق نهاد خلع سلاح سازمان ملل متحد «آنگلا کین» و «راجر کار» رئیس موسسه BAE Systems به همراه یک متخصص هوش مصنوعی و یک متخصص اخلاق رباتیک بود.
رئیس موسسه BAE که شرکتی فعال در حوزه پدافند جهانی، هوا فضا و امنیت است، در این اجلاس چندی پیرامون سرمایه گذاری 40 میلیارد دلاری این صنعت بر روی تسلیحات خودکار در 40 کشور، توضیح داد. وی تشریح کرد که این تسلیحات خواستار گونهای فارغ از هرگونه مسئولیت و عاری از هرگونه احساس و عاطفه هستند.
وی هشدار داد: اگر، چه در زمان صلح و چه در زمان جنگ، اخلاق، وجدان و قوه قضاوت را از نهاد انسانی بگیرید، بشریت را به سطحی میبرید که ورای ادراک ما است.
اما این همه هشدار و انتقاد این سوال را در ذهن بر میانگیزد که ما چه قدر به ساخت یک چنین تسلیحاتی نزدیک هستیم و این موضوع چرا آنقدر جدی شده است که در یکی از مهمترین اجلاس های سالیانه جهانی پیرامون آن به شکلی جدی بحث و تبادل نظر در میگیرد؟
در سال 2012 بسیاری بر این نظر بودند که تا چند دهه دیگر این رباتهای قاتل از جهان تخیل پا به جهان واقعیت میگذارند. اما طی سالهای اخیر این زمان مورد بازنگری قرار گرفته و پیش بینی ها زمانی بسیار نزدیکتر را برای واقعی شدن این گونه از تسلیحات پیشنهاد کردهاند. تا جایی که نامه سرگشاده سال قبل میگفت:
تکنولوژی هوش مصنوعی به جایی رسیده است که تولید و کاربرد یک چنین سیستمهایی را – تقریبا و نه قانونا – طی چند سال آینده – و نه چند دهه – ممکن میسازد. تسلیحات خودکار بعد از باروت و سلاح هستهای به عنوان سومین انقلاب در حوزه تسلیحات به شمار میرود.